超声成像在诊断血管病变中起重要作用。血管壁的准确分割对于预防,诊断和治疗血管疾病很重要。但是,现有方法的血管壁边界的定位不准确。分割误差发生在不连续的血管壁边界和黑暗边界中。为了克服这些问题,我们提出了一个新的边界限制网络(BDNET)。我们使用边界细化模块重新限制血管壁的边界以获得正确的边界位置。我们设计了特征提取模块来提取和融合多尺度特征和不同的接受场功能,以解决黑暗边界和不连续边界的问题。我们使用新的损失函数来优化模型。级别不平衡对模型优化的干扰可阻止获得更细致,更光滑的边界。最后,为了促进临床应用,我们将模型设计为轻量级。实验结果表明,与数据集的现有模型相比,我们的模型可实现最佳的分割结果,并显着降低记忆消耗。
translated by 谷歌翻译
在计算摄影中,低光原始denoisising是一项重要且有价值的任务,在计算摄影中,基于成对的真实数据训练的基于学习的方法是主流。但是,有限的数据量和复杂的噪声分布构成了配对真实数据的可学习性瓶颈,这限制了基于学习的方法的降解性能。为了解决这个问题,我们提出了一种可学习性增强策略,以根据噪声建模改革真实数据。我们的策略包括两种有效的技术:射击噪声增强(SNA)和深色阴影校正(DSC)。通过噪声模型解耦,SNA通过增加数据量和DSC来提高数据映射的精度,并通过降低噪声复杂性来降低数据映射的复杂性。公共数据集和真实成像方案的广泛结果共同证明了我们方法的最新性能。
translated by 谷歌翻译
基于变压器的自我监督表示方法学习方法从未标记的数据集中学习通用功能,以提供有用的网络初始化参数,用于下游任务。最近,基于掩盖3D点云数据的局部表面斑块的自我监督学习的探索还不足。在本文中,我们提出了3D点云表示学习中的蒙版自动编码器(缩写为MAE3D),这是一种新颖的自动编码范式,用于自我监督学习。我们首先将输入点云拆分为补丁,然后掩盖其中的一部分,然后使用我们的补丁嵌入模块提取未掩盖的补丁的功能。其次,我们采用贴片的MAE3D变形金刚学习点云补丁的本地功能以及补丁之间的高级上下文关系,并完成蒙版补丁的潜在表示。我们将点云重建模块与多任务损失一起完成,从而完成不完整的点云。我们在Shapenet55上进行了自我监督的预训练,并使用点云完成前文本任务,并在ModelNet40和ScanObjectnn(PB \ _t50 \ _RS,最难的变体)上微调预训练的模型。全面的实验表明,我们的MAE3D从Point Cloud补丁提取的本地功能对下游分类任务有益,表现优于最先进的方法($ 93.4 \%\%\%\%$和$ 86.2 \%$ $分类精度)。
translated by 谷歌翻译
在缩短的繁殖周期内生产高质量的农作物可确保全球粮食可利用性和安全性,但是由于存储限制,这种改进在全年繁殖过程中对种子工业的后勤和生产力挑战加剧了。在2021年分析中​​的先正达农作物挑战中,先正达提出了问题,以设计2020年全年繁殖过程中种植时间计划的优化模型,因此每周都有一致的收获数量。他们释放了一个数据集,其中包含2569种种子种群的种植窗,需要增长的学位单位进行收获,并在两个地点进行收获数量。为了应对这一挑战,我们开发了一个新框架,该框架由天气时间序列模型和一个优化模型组成,以安排种植时间。设计了一个深层复发的神经网络,以预测未来的天气,并且开发了时间序列模型的高斯过程模型,以模拟预测天气的不确定性。拟议的优化模型还安排了种子种群在最少的几周数,每周收获数量更加一致。与原始的种植时间相比,使用提出的优化模型可以在站点0时将所需的容量降低69%,在站点1下降到51%。
translated by 谷歌翻译
频谱重建的现有方法通常学习从RGB图像到多个频带的离散映射。然而,这种建模策略忽略了光谱签名的连续性。在本文中,我们提出了神经光谱重构(NESR)来提升这种限制,通过引入新的连续光谱表示来提升这种限制。为此,我们拥抱隐式功能的概念,并利用神经网络实现参数化实施例。具体来说,我们首先采用骨干网络来提取RGB输入的空间特征。基于它,我们设计了光谱简档插值(SPI)模块和神经注意映射(NAM)模块,以丰富深度特征,其中空间谱相关涉及更好的表示。然后,我们将采样光谱频带的数量视为连续隐式功能的坐标,以便从深度特征到频谱强度来学习投影。广泛的实验表明NESR在基线方法中重建精度的明显优势。此外,NESR通过使任意数量的频谱频带作为目标输出来扩展光谱重建的灵活性。
translated by 谷歌翻译
已被证明在改善神经电机翻译(NMT)系统方面有效的深度编码器,但是当编码器层数超过18时,它达到了翻译质量的上限。更糟糕的是,更深的网络消耗了很多内存,使其无法实现有效地训练。在本文中,我们呈现了共生网络,其包括完整的网络作为共生主网络(M-Net)和另一个具有相同结构的共享子网,但层数较少为共生子网(S-Net)。我们在变压器深度(M-N)架构上采用共生网络,并在NMT中定义M-Net和S-Net之间的特定正则化损耗$ \ mathcal {l} _ {\ tau} $。我们对共生网络进行联合培训,并旨在提高M净性能。我们拟议的培训策略在CMT'14 en-> De,De-> EN和EN-> FR任务的经典培训下将变压器深(12-6)改善了0.61,0.49和0.69 BLEU。此外,我们的变压器深(12-6)甚至优于经典变压器深度(18-6)。
translated by 谷歌翻译
最近,非自动增加(NAT)模型并行地预测输出,与自回归(AT)模型相比,实现了产生速度的大量改进。在对原始数据上表现更差的同时,大多数NAT模型都被培训为在教师模型生成的蒸馏数据上的学生模型,称为序列级知识蒸馏。提高模型性能的有效培训策略是自蒸馏混合(SDM)培训,预先训练原始数据模型,通过预先训练的模型本身产生蒸馏数据,最后重新列举模型原始数据和蒸馏数据的组合。在这项工作中,我们的目标是查看NAT模型的SDM,但发现直接采用SDM到NAT模型在翻译质量方面没有改进。通过仔细分析,我们观察失效与教师模型与NAT学生模型的建模和确认偏差相关。基于这些发现,我们提出了一种增强的策略,通过向经典SDM添加两个阶段来提高名为SDMRT的策略:一个是在自蒸馏数据上进行预重磅,另一个是对滤波后的教师蒸馏数据进行微调。我们的结果在多个NAT模型上以0.6至1.2 bleu表示基础。作为另一个奖励,对于迭代细化NAT模型,我们的方法可以在半迭代号内倾斜基线,这意味着2x加速度。
translated by 谷歌翻译
近年来,商业上可用和负担得起的四足动物机器人激增,其中许多平台在研究和行业中都被积极使用。随着腿部机器人的可用性的增长,对这些机器人能够执行有用技能的控制器的需求也是如此。但是,大多数用于控制器开发的基于学习的框架都集中在培训机器人特定的控制器上,该过程需要为每个新机器人重复。在这项工作中,我们引入了一个用于训练四足机器人的广义运动(Genloco)控制器的框架。我们的框架合成了可以部署在具有相似形态的各种四足动物的机器人上的通用运动控制器。我们提出了一种简单但有效的形态随机化方法,该方法在程序上生成了一组训练的模拟机器人。我们表明,通过对这套模拟机器人进行训练,我们的模型获得了更多的通用控制策略,这些策略可以直接转移到具有多种形态的新型模拟和真实世界机器人中,在训练过程中未观察到。
translated by 谷歌翻译
本文解决了机器人的问题,可以协作将电缆带到指定的目标位置,同时避免实时碰撞。引入电缆(与刚性链接相反)使机器人团队能够通过电缆的松弛/拉特开关更改其内在尺寸,从而使机器人团队能够穿越狭窄的空间。但是,这是一个具有挑战性的问题,因为混合模式开关以及多个机器人和负载之间的动态耦合。以前解决此类问题的尝试是离线执行的,并且不考虑避免在线障碍。在本文中,我们介绍了一个级联的计划方案,并采用平行的集中式轨迹优化,涉及混合模式开关。我们还每个机器人开发了一组分散的计划者,这使我们可以解决在线协作负载操作问题的方法。我们开发并演示了第一个能够移动有线电视载荷的首个协作自治框架之一,该框架太重了,无法通过一个机器人移动,通过狭窄空间,具有实时反馈和实验中的反应性计划。
translated by 谷歌翻译
语言理解(SLU)是以任务为导向对话系统的核心组成部分,期望面对人类用户不耐烦的推理较短。现有的工作通过为单转弯任务设计非自动回旋模型来提高推理速度,但在面对对话历史记录时未能适用于多转移SLU。直观的想法是使所有历史言语串联并直接利用非自动进取模型。但是,这种方法严重错过了显着的历史信息,并遭受了不协调的问题。为了克服这些缺点,我们提出了一个新型模型,用于使用层改造的变压器(SHA-LRT),该模型名为“显着历史”,该模型由SHA模块组成,该模块由SHA模块组成,一种层的机制(LRM)和插槽标签生成(SLG)任务。 SHA通过历史悠久的注意机制捕获了从历史言论和结果进行的当前对话的显着历史信息。 LRM预测了Transferer的中间状态的初步SLU结果,并利用它们来指导最终预测,SLG获得了非自动进取编码器的顺序依赖性信息。公共数据集上的实验表明,我们的模型可显着提高多转弯性能(总体上为17.5%),并且加速(接近15倍)最先进的基线的推理过程,并且在单转弯方面有效SLU任务。
translated by 谷歌翻译